大规模的语言模型(LLM),例如GPT-2,BERT和ROBERTA已成功应用于ASR N-OX-t-bess Rescore。但是,在最新的ASR系统附近,它们是否或如何使竞争性受益。在这项研究中,我们将LLM重新验证纳入最具竞争力的ASR基准之一:构象异构体模型。我们证明,LLM的双向,预处理,内域填充和上下文增强可以实现一致的改进。此外,我们的词汇分析阐明了这些组件中的每一个如何有助于ASR性能。
translated by 谷歌翻译